Новости Статьи Российское ПО VMware Veeam StarWind vStack Microsoft Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6470 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: Полный список лабораторных работ VMware Hands-on Labs

Калькулятор для расчета необходимой дисковой емкости под кластер VMware Virtual SAN (VSAN).


Мы довольно много пишем про кластеры хранилищ VMware Virtual SAN (VSAN), которые создаются на базе локальных дисков серверов VMware ESXi (например, тут и тут, а в последний раз - тут). А сегодня мы хотим рассказать о калькуляторе, который может пригодиться для расчета необходимой емкости хранилищ под Virtual SAN.

Написал его Duncan Epping, известный специалист по VMware vSphere и блоггер - один из немногих, которому можно верить.

Калькулятор рассчитывает общее количество требуемого дискового пространства (HDD и SSD-диски) как для кластера в целом, так и для одного хоста VMware ESXi, принимая в качестве исходных данных следующие параметры:

  • Количество ВМ в кластере хранилищ.
  • Объем оперативной памяти машины (vRAM).
  • Размер виртуального диска машины.
  • Число хостов, используемое для построения кластера.
  • Параметр Failures to tolerate (о нем мы писали тут).
  • Процент дискового пространства на метаданные и прочие издержки виртуализации хранилищ (по лучшим практикам - где-то 10%).
  • Процент пространства, которое занимает SSD-накопитель от дискового пространства на базе HDD-дисков хоста ESXi.

Поиграть с калькулятором дискового пространства для Virtual SAN можно по этой ссылке.


Таги: VMware, VSAN, Calculator, Virtual SAN, Storage, Blogs, vSphere

Как кластер VMware Virtual SAN (VSAN) обслуживает запросы на чтение блоков.


Мы уже немало писали про кластеры хранилищ VMware Virtual SAN (последнее - тут и тут), а сегодня рассмотрим механизм работы запросов на чтение блоков, который описал в своем блоге Duncan Epping.

Итак, схема кластера VMware Virtual SAN:

Здесь мы видим такую картину - виртуальная машина находится на хосте ESXi-01, а ее блоки размером 1 МБ размещаются на хранилищах разных хостов. При этом блоком 1 владеет ESXi-01, а блоком 2 - ESXi-03. Хост ESXi-02 не принимает участия в обработке запросов ввода-вывода.

Схема работы запроса на чтение проста - сначала проверяется наличие блока в кэше на чтение (Read cache), и если там блока не оказывается, то проверяется Write buffer на хранилище SSD (если блок еще не успел записаться на HDD) и непосредственно сам HDD-диск. В данном случае блок 1 нашелся на SSD-диске в кэше на чтение.

Второй же блок обслуживается хостом ESXi-03, но его не оказалось в кэше на чтение, и он читается с HDD-диска. Тут надо отметить, что кластер Virtual SAN помещает блоки в кэш на чтение только на тех хостах, которые активно обслуживают этот блок и владеют им, а те хосты, которые просто хранят копию данных - в Read cache таких блоков не помещают.


Таги: VMware, Virtual SAN, VSAN, Storage, Blogs, vSphere, ESXi

Как добавить свое правило (custom firewall rule) в сетевой экран VMware ESXi и сделать его NTP-сервером.


В небольших инсталляциях виртуальной инфраструктуры VMware vSphere может оказаться оправданным сделать один из серверов VMware ESXi сервером NTP, чтобы с ним синхронизировали свое время другие хосты.

Интересно, что немногие знают о том, что NTP-клиент сервера VMware ESXi 5.x (NTP-демон /sbin/ntpd) работает по-умолчанию не только как клиент, но и отдает время по запросу другим серверам как NTP-сервер. Поэтому достаточно лишь указать адрес хоста ESXi в качестве целевого хоста для синхронизации времени - и все будет работать.

Загвоздка тут одна - по умолчанию фаервол сервера ESXi блокирует входящие NTP-запросы по протоколу UDP на порт 123. Чтобы это исправить, нужно добавить собственное правило в сетевой экран. К сожалению, в Firewall GUI этой возможности не предусмотрено, поэтому придется лезть в конфиг-файл.

Для начала выведем список всех активных правил фаервола ESXi командой:

esxcli network firewall ruleset list

Создаем файл ntpd.xml с конфигурацией сервиса NTP со следующим содержимым (подробнее о процессе - тут):

<!-- Firewall configuration information for NTP Daemon -->
<ConfigRoot>
  <service>
      <id>NTP Daemon</id>
      <rule id='0000'>
          <direction>inbound</direction>
          <protocol>udp</protocol>
          <porttype>dst</porttype>
          <port>123</port>
      </rule>
      <enabled>false</enabled>
      <required>false</required>
  </service>
</ConfigRoot>

Далее кладем этот файл в папку на хосте ESXi /etc/vmware/firewall/ntpd.xml и выполняем команду:

esxcli network firewall refresh

После этого мы увидим новое правило в конфигурации сетевого экрана ESXi (в командной строке его можно проверить командой list, приведенной выше):

Однако, к сожалению, пользовательская конфигурация фаервола ESXi не сохраняется при перезагрузке хоста, о чем написано в KB 2007381. Поэтому можно просто положить ntpd.xml на общее хранилище и добавить в /etc/rc.local команду по копированию ntpd.xml в нужную папку хоста и комнду рефреша правил фаервола. Однако это ненадежно, поскольку зависит от доступности общего хранилища.

Поэтому, все-таки, лучше сделать это правило постоянным с помощью процедуры, описанной у Андреаса, заметка которого и стала основой этой статьи. Для этого нужно будет создать и установить VIB-пакет (как сделать это для любого случая описано в той же KB 2007381).

Ну а используя готовый пакет от Андреаса, можно установить созданный им VIB для добавления правила в фаервол для NTP-сервера:

esxcli software acceptance set --level CommunitySupported
esxcli software vib install -v http://files.v-front.de/fwenable-ntpd-1.2.0.x86_64.vib

Все это работает как для ESXi 5.0/5.1, так и для ESXi 5.5.


Таги: VMware, ESXi, Security, Firewall, Blogs, NTP, vSphere

View Client Device Detector - полезная утилитка для администраторов инфраструктуры виртуальных ПК.


Иногда администраторам VDI-инфраструктуры виртуальных ПК VMware View требуется получить информацию о настройках клиентского устройства, таких как IP или MAC-адрес, используемый протокол или другие параметры, которые записывает туда View Agent. Хранятся эти настройки в ветке реестра HKEY_CURRENT_USER\Volatile Environment.

Чтобы пользователь или администратор VMware View мог собрать эти настройки быстро, Davoud Teimouri написал утилиту View Client Device Detector, которая живет в трее виртуального ПК и позволяет скопировать в буфер обмена весь этот конфиг, который потом можно кинуть в скайп или почту:


Таги: VMware, View, VMachines, VDI, Blogs

Как правильно клонировать виртуальную машину с VMware ESXi внутри.


Многие администраторы и разработчики для своих целей используют VMware ESXi, работающий в виртуальной машине (так называемый Nested ESXi). Туда даже можно ставить свои VMware Tools.

При этом, когда требуется использовать виртуальные ESXi, как правило, их требуется несколько штук. Есть три способа получить их:

  • Поставить заново и настроить - самый надежный, но долгий.
  • Использовать процедуру автоматической установки и настройки Kickstart. Но тут надо знать, как это делается.
  • Склонировать существующий экземпляр ESXi - самое простое решение, но сделать это нужно правильно.

Вильям Лам описал третий вариант процедуры подготовки ESXi к клонированию, после проведения которой можно развертывать эти инстансы легко и просто. В результате у новых ESXi будут свои MoRef ID, UUID, BIOS UUID и MAC-адреса.

Итак, что нужно сделать:

1. Смена MAC-адреса VMkernel при смене MAC-адреса сетевого интерфейса VM Network.

Если развертывать новый ESXi с новым MAC-адресом Virtual machine network, то необходимо также поменять MAC-адрес VMkernel. Для этого есть настройка FollowHardwareMac, которая позволяет делать это автоматически.

Для этого выполняем команду консоли ESXCLI:

esxcli system settings advanced set -o /Net/FollowHardwareMac -i 1

2. Удаляем упоминание об UUID из esx.conf.

Запись о системном UUID сервера ESXi хранится в основном конфигурационном файле esx.conf (/etc/vmware/esx.conf). Нужно удалить строчку с упоминанием этого UUID - и тогда он сгенерируется при следующей загрузке.

После этого можно выключать ВМ с виртуальным VMware ESXi и клонировать ее. При загрузке новой ВМ, естественно, нужно поменять IP-адрес и прочую сетевую идентификацию.

В комментариях к заметке Вильяма пишут, что такой способ можно использовать для клонирования LUN, содержащего образ для загрузки ESXi по SAN.


Таги: VMware, ESXi, VMachines, Nested, vSphere, Blogs

Сайзинг кластеров хранилищ VMware VSAN в VMware vSphere и их отказоустойчивость.


Как многие знают, в VMware vSphere 5.5 появились возможности Virtual SAN, которые позволяют создать кластер хранилищ для виртуальных машин на основе комбинации SSD+HDD локальных дисков серверов VMware ESXi. Не так давно вышла обновленная бета этого решения, кроме того мы не так давно писали о производительности VSAN тут и тут.

Сегодня же мы поговорим о том, как нужно сайзить хранилища Virtual SAN в VMware vSphere, а также немного затронем тему отказоустойчивости. Более детальную информацию можно найти в VMware Virtual SAN Design & Sizing Guide, а ниже мы расскажем о подходе к планированию хранилищ VSAN вкратце.

Объекты и компоненты Virtual SAN

Начнем с простого ограничения по объектам (objects) и компонентам (components), которое есть в VSAN. Виртуальные машины, развернутые на vsanDatastore, могут иметь 4 типа объектов:

  • Домашняя директория виртуальной машины Virtual Machine ("namespace directory").
  • Объект файла подкачки - swap object (для включенной ВМ).
  • Виртуальный диск VMDK.
  • Дельта-диски для снапшотов. Каждый дельта-диск - это отдельный объект.

Каждый объект, в зависимости от типа RAID, рождает некоторое количество компонентов. Например, один VMDK, размещенный на двух томах страйпа (RAID 0) рождает два объекта. Более подробно об этом написано вот тут.

Так вот, ограничения тут следующие:

  • Максимальное число компонентов на 1 хост ESXi: 3000.
  • Максимальное число компонентов для одного объекта: 64 (это включает в себя тома страйпов и также реплики VMDK с других хостов).

На практике эти ограничения вряд ли актуальны, однако о них следует знать.

Сколько дисков потребуется для Virtual SAN

Во второй бета-версии VSAN (и, скорее всего, так будет в релизной версии) поддерживается 1 SSD-диск и до 7 HDD-дисков в одной дисковой группе. Всего на один хост VMware ESXi поддерживается до 5 дисковых групп. Таким образом, на хосте поддерживается до 5 SSD-дисков и до 35 HDD-дисков. Надо убедиться, что контроллеры хоста поддерживают необходимое количество дисков, а кроме того нужно проверить список совместимости VSAN HCL, который постоянно пополняется.

Также надо учитывать, что кластер хранилищ Virtual SAN поддерживает расширение как путем добавления новых дисков, так и посредством добавления новых хостов в кластер. На данный момент VMware поддерживает кластер хранилищ максимум из 8 узлов, что суммарно дает емкость в дисках в количестве 40 SSD (1*5*8) и 280 HDD (7*5*8).

Сколько дисковой емкости нужно для Virtual SAN (HDD-диски)

Необходимая емкость под размещение VMDK зависит от используемого параметра FailuresToTolerate (по умолчанию 1), который означает, какое количество отказов хостов может пережить кластер хранилищ. Если установлено значение 1, то реплика одного VMDK будет размещена на дисках еще одного из хостов кластера:

Тут можно сказать о том, как работает отказоустойчивость кластера Virtual SAN. Если отказывает хост, на котором нет виртуальной машины, а есть только VMDK или реплика, то виртуальная машина продолжает работу с основной или резервной копией хранилища. В этом случае начнется процесс реконструкции реплики, но не сразу - а через 60 минут, чтобы дать время на перезагрузки хоста (то есть если произошел не отказ, а плановая или внеплановая перезагрузка), а также на короткие окна обслуживания.

А вот если ломается хост, где исполняется ВМ - начинается процедура восстановления машины средствами VMware HA, который перезапускает ее на другом хосте, взаимодействуя при этом с Virtual SAN.

Более подробно этот процесс рассмотрен вот в этой статье и вот в этом видео:

Однако вернемся к требующейся нам емкости хранилищ. Итак, если мы поняли, что значит политика FailuresToTolerate (FTT), то требуемый объем хранилища для кластера Virtual SAN равняется:

Capacity = VMDK Size * (FTT + 1)

Что, в принципе, и так было очевидно.

Сколько дисковой емкости нужно для Virtual SAN (SSD-диски)

Теперь перейдем к SSD-дискам в кластере VSAN, которые, как известно, используются для вспомогательных целей и не хранят в себе данных виртуальных машин. А именно, вот для чего они нужны (более подробно об этом тут):

  • Read Cache - безопасное кэширование операций на чтение. На SSD-диске хранятся наиболее часто используемые блоки, что уменьшает I/O read latency для ВМ.
  • Write Buffering - когда приложение внутри гостевой ОС пытается записать данные, оно получает подтверждение записи тогда, когда данные фактически записаны на SSD (не на HDD), таким образом твердотельный накопитель используется как буфер на запись, что небезопасно при внезапном пропадании питания или отказе хоста. Поэтому данные этого буфера дублируются на других хостах кластера и их SSD-дисках.

Так каковы же рекомендации VMware? Очень просты - под SSD кэш и буфер неплохо бы выделять 10% от емкости HDD-дисков хоста. Ну и не забываем про значение FailuresToTolerate (FTT), которое в соответствующее число раз увеличивает требования к емкости SSD.

Таким образом, необходимая емкость SSD-хранилищ равна:

Capacity = (VMDK Size * 0.1) * (FTT + 1)

Ну и напоследок рекомендуем отличнейший список статей на тему VMware Virtual SAN:


Таги: VMware, Virtual SAN, VSAN, vSphere, ESXi, Storage, Sizing, Blogs

Полезная статья на русском языке о развертывании StarWind SMI-S Agent в решении StarWind iSCSI SAN.


На oszone.net вышла интересная статья, касающаяся развертывания агента StarWind SMI-S Agent под средство управления виртуальной инфраструктурой Microsoft Hyper-V - System Center Virtual Machine Manager (VMM). Напомним, что этот агент позволяет из консоли VMM управлять хранилищами виртуальных машин StarWind Native SAN for Hyper-V, в том числе хранилищами в бесплатной версии StarWind.

;

Скачать StarWind SMI-S Agent можно по этой ссылке, а в статье "Опыт использования SMI-S для автоматизации управления StarWind iSCSI SAN Free в System Center Virtual Machine Manager 2012 SP1" подробно написано о том, как его правильно развернуть и начать использовать.

Используя компонент StarWind SMI-S для SC VMM вы сможете создавать, удалять и настраивать виртуальные хранилища StarWind таким образом, что вам почти никогда не придется запускать StarWind Management Console.

;

При этом для операций генерируется соответствующий PowerShell-скрипт, который вы можете кастомизировать для автоматизации рутинных операций с хранилищами.

Также на эту тему рекомендуем документ "StarWind SMI-S Agent: Storage Provider for SCVMM", где описаны основные шаги установки этого агента и настройки SC VMM.


Таги: StarWind, iSCSI, SAN, Hyper-V, SC VMM, Blogs

Немного о Hot Add / Hot plug для виртуальных процессоров и памяти виртуальных машин VMware vSphere.


Как знают многие администраторы, в VMware vSphere есть такая возможность как Hot Add (для процессоров ее называют Hot plug) виртуальных устройств (vRAM и vCPU), которая позволяет добавить эти ресурсы прямо в работающую виртуальную машину без необходимости ее остановки.

По умолчанию функции Hot Add для виртуальных машин на VMware ESXi выключены, чтобы не создавать дополнительную нагрузку при ненужном для большинства пользователей функционале. Hot Add можно включить на вкладке Options для виртуальной машины:

Это же можно сделать и через vSphere Web Client:

После этого можно добавлять vCPU и vRAM работающей виртуальной машине (но не для всех гостевых ОС). Вот какие требования предъявляются к технологии Hot Add в VMware vSphere:

  • Минимально необходима версия виртуального "железа" Hardware Version 7 или более поздняя.
  • Технология Hot-add/Hot-Plug не совместима с техникой Fault Tolerance.
  • Для поддержки Hot Add понадобится одно из следующих коммерческих изданий: vSphere Advanced, Enterprise или Enterprise plus.
  • Возможно только горячее добавление vRAM и vCPU, но не горячее удаление (раньше это поддерживалось) - и только для списка поддерживаемых ОС.
  • Необходимо учитывать особенности лицензирования гостевой ОС по процессорам и памяти, когда проводите такие манипуляции.
Гостевая ОС Лицензия VMware vSphere Hot-Add RAMHot-Plug CPUs
Windows Server 2003 32bit/64bitStandard
Enterprise
Windows Server 2008 32bitStandard
Enterprise
Datacenter
Windows Server 2008 64bitStandard
Enterprise
Windows Server 2008 64bitDatacenter
Windows Server 2008 R2Standard
Enterprise
Windows Server 2008 R2Datacenter
Windows Server 2012 Standard
Datacenter
Windows Server 2012 R2Standard
Datacenter
?Нет, см. KB 2050800

Если вы планируете использовать технологию Hot Add в Windows Server 2003, то нужно иметь в виду, что начнет происходить что-то странное, о чем написано в KB 913568 компании Microsoft.

Кроме этого, если вы включите Hot Add для виртуальных процессоров (vCPU), у вас прекратит работать технология vNUMA, что может существенно повлиять на производительность (см. KB 2040375). Ну а в логе в этом случае будет написано следующее:

vmx| W110: NUMA and VCPU hot add are incompatible. Forcing UMA


Таги: VMware, vSphere, Hot Add, Hot Plug, VMachines, vCompute, Blogs

VMware Tools для виртуального VMware ESXi - очередная полезность на VMware Labs.


То, о чем думали многие экспериментаторы и разработчики, но боялись попросить - на сайте проекта VMware Labs появились VMware Tools для виртуального VMware ESXi. Они поддерживают VMware vSphere версий 5.0, 5.1 и 5.5. 

Как многим стало понятно, это пакет ПО, предназначенный для установки в консоли сервера ESXi, когда он установлен в виртуальной машине, запущенной на уже физической платформе с ESXi (по аналогии с VMware Tools для виртуальных машин).

Вот какие возможности есть в VMware Tools for Nested ESXi:

  • Предоставляет в консоли vSphere Client информацию о виртуальной машине с Nested ESXi (IP-адрес, имя хоста и прочее).
  • Позволяет виртуальному ESXi быть правильно перезапущенным или выключенным (restart и shut down, соответственно) при операциях через vSphere Client (толстый клиент) или vSphere API.
  • Возможность выполнения скриптов во время изменения хостом ESXi состояний питания (включение, выключение и т.п.).
  • Поддержка Guest Operations API (бывший VIX API) для операций внутри ВМ (т.е. в консоли вложенного ESXi).

Порядок установки:

  • Вариант 1 - скачиваем VIB-пакет, кладем его на датастор и ставим:

esxcli system maintenanceMode set -e true  esxcli software vib install -v /vmfs/volumes/[VMFS-VOLUME-NAME]/esx-tools-for-esxi-9.7.0-0.0.00000.i386.vib -f

esxcli system shutdown reboot -r "Installed VMware Tools" - See more at: http://www.virtuallyghetto.com/2013/11/w00t-vmware-tools-for-nested

esxi.html#sthash.f89qps1O.dpuf

  • Вариант 2 - устанавливаем VIB прямо с сайта VMware:

esxcli network firewall ruleset set -e true -r httpClient 

esxcli software vib install -v http://download3.vmware.com/software/vmw-tools/esxi_tools_for_guests/esx-tools-for-esxi-9.7.0-0.0.00000.i386.vib -f

Далее нужно перезагрузить виртуальный VMware ESXi.

Чтобы удалить эти VMware Tools, используйте команду:

esxcli software vib remove -n esx-tools-for-esxi


Таги: VMware, Tools, ESXi, Nested, VMachines, Blogs, Labs

Экономим 95 евро или как бесплатно и никуда не выходя стать VMware Certified Associate (VCA).


Недавно мы писали о новой сертификации VMware Certified Associate (VCA), которая позволяет получить шильдик по одному из четырех направлений (сейчас пока доступно только 3):

В отличие от сертификации VMware Certified Professional (VCP), сертификация VCA не требует предварительного прохождения курсов, а сам экзамен доступен на сайте Pearson VUE. Небольшая проблема заключается в том, что сдача этого экзамена стоит 95 евро. Но это оказалось решаемо, и есть возможность сдать этот экзамен не выходя из дома и абсолютно бесплатно.

Итак, что нужно для этого сделать:

  • Регистриуемся для сдачи экзамена на сайте VMware Certification, там шедулим экзамен VCA и получаем Candidate ID.
  • Далее идем на Pearsonvue.com/vmware, где регистрируемся или входим, если уже есть аккаунт. После заказа экзамена он будет доступен онлайн в течение 2-х дней.
  • Далее видим, что он стоит 95 евро. Применяем 2 промо кода VCA150 и VCA13ICS, после чего сумма должна превратиться в 0 евро (взято отсюда):

Сам я эту штуку не пробовал, поэтому если она не работает - не обессудьте.


Таги: VMware, VCA, Бесплатно, Certification, Blogs

View Events Notifier - быстрый доступ к событиям и оповещение по email для инфраструктуры VMware Horizon View.


Администраторам инфраструктуры виртуальных ПК часто оказывается необходимым просматривать лог событий VMware Horizon View на предмет ошибок и предупреждений (информация из EventsDB). Чтобы немного автоматизировать эту процедуру, Chris Halstead написал утилиту View Events Notifier, которая позволяет получить быстрый доступ к событиям View из трея, а также посылать уведомления о них на email:

По умолчанию утилита проверяет события каждые 60 секунд и шлет соответствующие уведомления. Сами уведомления можно получать об ошибках аудита (Audit Fail Events), предупреждениях (Warning Events) и ошибках (Error Events).

Скачать View Events Notifier можно по этой ссылке. В общем штука для скучающего администратора VMware View полезная:


Таги: VMware, View, VDI, Tools, Blogs, Horizon

Наша позиция по NDA и новые возможности VMware vSphere 5.5.


Был тут случай недавно - пишет мне товарищ, дескать, что это мы пост разместили с инфой, которая под NDA. А откуда мы должны знать, что находится под NDA, а что не под NDA? И вообще с какой стати все эти заморочки с NDA? Я вообще на тему продуктов чьих-то NDA никогда не подписывал и подписывать не собираюсь. А если появляется утечка с новыми возможностями продукта или компании - это никакой нахрен не слив инфы под NDA, а самая обычная и уже набившая оскомину реклама - радуйтесь.

Или вот приходит нам рассылка про новую версию vCloud Director, а внизу написано:

***** Confidential Information ***** 
Do not forward information about this program or release to anyone outside of those directly involved with beta testing. This information is highly confidential.

Information contained in this email, including version numbers, is not a commitment by VMware to provide or enhance any of the features below in any generally available product.

Или вот NVIDIA пишет:

Обращаю ваше внимание, что информация брифинга находится под NDA до 17:00 по Москве вторника, 23-го июля.

И чо? А если я им в письме напишу, что им нельзя мыться 3 месяца - они будут этот наказ соблюдать?

Так что, уважаемые вендоры, надеюсь, вам понятна позиция VM Guru с вашими NDA. Если мы их не подписывали - не пишите нам ничего на эту тему, так как эти письма отправляются прямиком в трэш по ключевому слову "NDA".

Вон у Apple тоже, конечно, утечки бывают, но в целом-то - хрен узнаешь, когда этот новый айфон выйдет. Поэтому в этом посте мы с удовольствием расскажем о новых возможностях VMware vSphere 5.5 на основе информации, взятой из сети интернет (также об этом есть на блоге Андрея и Виктора - http://vmind.ru/2013/08/15/chego-zhdat-ot-vmware-vsphere-5-5/). Естественно, не все из этих фичей могут оказаться в релизной версии, и это, само собой, не полный их список.

New OS Support

Наряду с поддержкой Windows 8.1 (ожидается в VMware View 5.5) будут поддерживаться последние релизы гостевых ОС Linux: Ubuntu, Fedora, CentOS, OpenSUSE и другие дистрибутивы.

VMware Hardware Version 10

Теперь появится новое поколение виртуального аппаратного обеспечения версии 10. Это добавит новых возможностей виртуальным машинам с точки зрения динамических сервисов виртуализации. Для редакции vSphere Enterprise Plus будет поддерживаться до 128 vCPU.

Administrative UI (Web Client)

Новая версия веб-клиента vSphere Web Client теперь является единственным средством управления инфраструктурой виртуализации.

  • Улучшенный интерфейс, большое количество фильтров и вкладка "recent objects", позволяющая получить быстрый доступ к объектам.
  • Улучшения по времени отклика интерфейса и возможность управлять большим числом объектов.

vSphere Replication - теперь доступны следующие возможности по репликации виртуальных машин:

  • Возможность репликации виртуальных машин между кластерами для машин не с общими хранилищами (non-shared storage).
  • Поддержка нескольких точек для восстановления целевой реплицируемой машины. Это защищает сервисы от логических повреждений данных, изменения в которых реплицируются на резервную площадку.
  • Storage DRS Interoperability - возможность реплицируемых машин балансироваться по хранилищам средствами технологии Storage vMotion без прерывания репликации.
  • Simplified Management - улучшенная интеграция с vSphere Web Client, что позволяет мониторить процесс репликации в различных представлениях vCenter.
  • Поддержка технологии VSAN (см. ниже) - теперь машины на таких хранилищах поддерживаются средствами репликации.
  • vCenter Orchestrator - теперь это средство автоматизации существенно оптимизировано в плане масштабируемости и высокой доступности. Разработчики теперь могут использовать упрощенные функции диагностики в vCenter Orchestrator client.

Virtual SAN

О возможностях VMware Distributed Storage и vSAN мы уже писали вот в этой статье. Virtual SAN - это полностью программное решение, встроенное в серверы VMware ESXi, позволяющее агрегировать хранилища хост-серверов (SSD и HDD) в единый пул ресурсов хранения для всех хостов, что позволяет организовать ярусность хранения с необходимыми политиками для хранилищ.

Поддержка томов vVOL

Также мы писали о поддержке виртуальных томов vVOL - низкоуровневых хранилищ для каждой из виртуальных машин, с которыми будут позволены операции на уровне массива, которые сегодня доступны для традиционных LUN - например, снапшоты дискового уровня, репликация и прочее. Проще говоря, VMDK-диск машины можно будет хранить как отдельную сущность уровня хранилищ в виде vVOL, и с ней можно будет работать отдельно, без влияния на другие ВМ этого массива.

VMware Virtual Flash (vFlash)

О возможностях VMware Virtual Flash (vFlash) мы уже писали вот в этой статье. vFlash - это средство, позволяющее объединить SSD-ресурсы хост-серверов VMware ESXi в единый пул, используемый для задач кэширования, чтобы повысить быстродействие виртуальных машин. vFlash - это фреймворк, позволяющий сторонним вендорам SSD-накопителей и кэш-устройств использовать собственные алгоритмы для создания модулей обработки кэшей виртуальных машин (плагины vFlash Cache Modules). Будет реализован и собственный базовый алгоритм VMware для работы с кэшем.

Virtual Machine File System (VMFS)

Теперь VMware vSphere 5.5 поддерживает vmdk-диски объемом более 2 TБ. Теперь объем виртуального диска машины может быть размером до 64 ТБ. Несколько больших файлов теперь могут храниться в одном vmdk. Это поддерживается только для VMFS 5.

vCloud Director

Теперь продукт доступен как виртуальный модуль (Virtual Appliance) - можно использовать как встроенную так и внешнюю БД. Этот модуль по-прежнему не будет рекомендован для продакшен-среды. Рекомендуют использовать его для апробации решения.

Был существенно улучшен Content Catalog:

  • Улучшена производительность и стабильность синхронизации
  • Расширяемый протокол синхронизации
  • Возможность самостоятельной загрузки элементов каталога (OVF)

Кроме того, для интерфейса управления теперь поддерживается больше браузеров и ОС (в том числе поддержка Mac OS).

vCloud Networking & Security

В составе vSphere 5.5 этот продукт будет иметь следующие улучшения:

  • Улучшенная поддержка Link Aggregation Control Protocol (LACP) - теперь поддерживается 22 алгоритма балансировки и до 32 физических соединений в агрегированном канале.
  • Улучшения производительности и надежности агрегированного канала.

Кроме того, вместо vCloud Networking and Security с октября выходит новый продукт VMware NSX.

Security Features

Теперь появится распределенный сетевой экран (Distributed Firewall), являющийся одним из ключевых компонентов концепции Software Defined Datacenter. Он работает на уровне гипервизора каждого из хостов VMware ESXi, а на уровне централизованной консоли доступен мониторинг проходящих пакетов от абсолютно каждой виртуальной машины.

Политики этого сетевого экрана определяются на уровне VXLAN, поэтому нет нужды оперировать с ним на уровне IP-адресов. Ну и так как поддержка этого распределенного фаервола реализована на уровне гипервизора - то политики перемещаются вместе с виртуальной машиной, если она меняет хост средствами vMotion.

Более подробно об этом можно прочитать тут.

vCenter Site Recovery Manager

Теперь vCenter SRM будет поддерживать технологию vSAN вместе с vSphere Replication, работать с технологиями Storage DRS и Storage vMotion. Кроме того, добавлена поддержка нескольких точек восстановления реплик (Multi-Point-In-Time snapshots) при исполнении плана аварийного восстановления.

VMware vCenter Multi-Hypervisor Manager (MHM) 1.1

Об этом продукте мы уже писали вот тут. Теперь он будет поддерживать гипервизор Microsoft Hyper-V 3.0 в Windows Server 2012 R2 (а также более ранние его версии). Также появилась возможность холодной миграции ВМ с хостов Hyper-V на VMware vSphere.

Single Sign-On 2.0 (SSO)

В новой версии единого средства аутентификации продуктов VMware теперь появится улучшенная и новая поддержка следующих компонентов:

  • vSphere
  • vCenter Orchestrator
  • vSphere Replication
  • vSphere AppHA (новый продукт, который будет анонсирован на VMworld)
  • vCloud Director
  • vCloud Networking and Security (vCNS)

Технология VMware vDGA для VMware Horizon View 5.5

О технологии NVIDIA VGX мы уже писали вот тут, тут и тут. Согласно этой презентации, уже скоро мы увидим возможности шаринга и выделение GPU отдельным виртуальным машинам:

Ну что знал - рассказал. В целом, ничего революционного. Поддержку Fault Tolerance для 4-х vCPU обещают в VMware vSphere 6.0.

Виктору спасибо за ссылки. Вот еще немного о предстоящем выходе обновленной платформы - http://vmind.ru/2013/08/13/vmware-vsphere-5-5/.


Таги: VMware, vSphere, Update, Blogs, ESXi, View, SRM, vCloud, Director, Horizon

Рекомендации по защите инфраструктуры виртуальных десктопов VMware View. Часть 9 - Аудит.


Представляем вам заключительную (девятую) статью автора VM Guru Максима Федотенко, посвященную аудиту инфраструктуры виртуальных ПК. В этой части статьи разберем рекомендации по настройке аудита в инфраструктуре виртуальных десктопов. В Главе 1 разберем рекомендации по аудиту действий в самой инфраструктуре, а в Главе 2 – по настройке аудита действий пользователя в виртуальном десктопе...
Таги: VMware, View, Security, VDI, VMachines, Blogs

Обновление драйвера HBA-адаптера на сервере VMware ESXi.


Иногда, вследствие ошибки или отсутствия поддержки каких-либо функций, появляется необходимость обновить драйвер HBA-адаптера на сервере VMware ESXi - ведь ждать очередного обновления vSphere с обновленными драйверами можно очень долго.

Поэтому можно обновиться самим - это просто. Смотрим на свои адаптеры HBA, для чего выполняем команду:

# esxcfg-scsidevs -a

Здесь мы видим в каких слотах сервера размещены адаптеры (и производителя адаптера), но не видим версий их Firmware. Поэтому смотрим в девайсы, например для адаптера Qlogic (как смотреть остальные - тут):

# more /proc/scsi/qla2xxx/0

Здесь мы видим версию Firmware - 5.03.15 и метку версии драйвера.

Далее нужно посмотреть в KB 2030818 (Supported Driver Firmware versions for I/O devices) для того, чтобы определить поддерживаемые для ESXi драйверы адаптеров и рекомендации по текущей версии.

Например, для серверов HP идем в http://vibsdepot.hp.com/hpq/recipes/, где находим документ "HP-VMware-Recipe.pdf", в котором есть ссылки на необходимые драйверы:

Скачиваем нужный драйвер, например:

qla2xxx-934.5.6.0-887798.zip

Распаковываем архив и находим там .vib-файл:

scsi-qla2xxx-934.5.6.0-1OEM.500.0.0.472560.x86_64.vib

Теперь этот файл надо положить в папку:

/var/log/vmware

И запустить команду:

# esxcli software vib update -v scsi-qla2xxx-934.5.6.0-1OEM.500.0.0.472560.x86_64.vib

Перезагружаем сервер для применения изменений и убеждаемся, что драйвер накатился с помощью команды:

# more /proc/scsi/qla2xxx/0

Детальную информацию о VIB-пакете можно получить с помощью команд:

# esxcli software vib list | grep scsi
# esxcli software vib get -n scsi-qla2xxx


Таги: VMware, ESXi, HBA, Update, Storage, vSphere, Blogs

Когда безопасность VMware vSphere может стать небезопасной.


Мы часто пишем заметки о безопасности виртуальной инфраструктуры VMware vSphere и других продуктов на данной платформе (их можно найти по тэгу Security). И вот на днях я натолкнулся на интересную статью "It’s a Unix system, I know this!", в которой есть одна умная мысль, касающаяся настройки безопасности, и которую я часто пытаюсь донести до заказчиков. А именно: некорректное планирование и исполнение процедур по обеспечению безопасности может привести к еще большим проблемам как с точки зрения конфигурации виртуальной среды, так и с точки зрения самой безопасности.

Итак, обратимся к статье. Есть такая организация в штатах Defense Information Systems Agency (DISA), которая выпускает документ Security Technical Implementation Guide (STIG), являющийся руководящим документом по обеспечению безопасности для правительственных организаций. Есть подозрение, что в части виртуальных машин он сделан на основе VMware vSphere Security Hardening, однако не из самой актуальной версии последнего.

Так вот в этом DISA STIG есть пункты, касающиеся виртуальных машин, например, пункт про отключение операций Copy/Paste с гостевой ОС виртуальной машины из ОС компьютера, где выполняется vSphere Client.

Посмотрим, как рекомендуется выполнить эту процедуру:

To edit a powered-down virtual machine’s .vmx file, first remove it from vCenter Server’s inventory. Manual additions to the .vmx file from ESXi will be overwritten by any registered entries stored in the vCenter Server database. Make a backup copy of the .vmx file. If the edit breaks the virtual machine, it can be rolled back to the original version of the file.

1. Open the vSphere/VMware Infrastructure (VI) Client and log in with appropriate credentials. If connecting to vCenter Server, click on the desired host. Click the Configuration tab. Click Storage. Right-click on the appropriate datastore and click Browse Datastore. Navigate to the folder named after the virtual machine, and locate the <virtual machine>.vmx file. Right-click the .vmx file and click Remove from inventory.

2. Temporarily disable Lockdown Mode and enable the ESXi Shell via the vSphere Client.

3. Open the vSphere/VMware Infrastructure (VI) Client and log in with appropriate credentials. If connecting to vCenter Server, click on the desired host. Click the Configuration tab. Click Software, Security Profile, Services, Properties, ESXi Shell, and Options, respectively. Start the ESXi Shell service, where/as required.

4. As root, log in to the ESXi host and locate the VM’s vmx file.

# find / | grep vmx

Add the following to the VM’s vmx file.
keyword = “keyval”

Where:
keyword = isolation.tools.copy.disable
keyval = TRUE

5. Re-enable Lockdown Mode on the host.

6. Re-register the VM with the vCenter Server:

Open the vSphere/VMware Infrastructure (VI) Client and log in with appropriate credentials.
If connecting to vCenter Server, click on the desired host.
Click the Configuration tab.
Click Storage.
Right-click on the appropriate datastore and click Browse Datastore.
Navigate to the folder named after the virtual machine, and locate the <virtual machine>.vmx file.
Right-click the .vmx file and click Add to inventory. The Add to Inventory wizard opens.
Continue to follow the wizard to add the virtual machine.

Круто, да? Это все для того, чтобы просто отключить копирование из консоли ВМ (для одной машины), которое если уж кому-то очень сильно понадобится - он сделает все равно через принтскрин или еще как.

А теперь подумаем, к чему это все может привести:

  • В процессе такой настройки администратор может что-то испортить.
  • Сотни виртуальных машин обработать таким способом очень долго и нудно.
  • Такая процедура открывает больше дырок, чем закрывает (администратор снимает Lockdown хоста, делает операции в шеле и тыркается по вицентру).
  • Контролировать исполнение процесса очень сложно - все ли локдауны были закрыты, по всем машинам ли мы прошлись и т.п.

Конечно же, есть простой и элегантный способ сделать все это сразу для всех ВМ и с помощью PowerCLI через методы, описанные в пунктах vm.disable-console-copy и vm.disable-console-paste документа vSphere Hardening Guide.

Однако те из вас, у кого в компании есть отдел информационной безопасности, знают что такое формализм этих ребят, которые может в виртуализации и не разбираются, зато прекрасно понимают, что приведенный выше гайд несколько отличается от двух строчек на PowerShell.

И, хотя это в основном касается западных организаций, в отечественных крупных компаниях тоже возникают проблемы из-за подобных процедур.

Так вот какова мораль сей басни:

  • При разработке руководящих документов по обеспечению безопасности виртуальной инфраструктуры поймите, какие требования являются обязательными, а какие можно реализовать факультативно (то есть не реализовывать вовсе). Минимизируйте число обязательных требований и по мере необходимости расширяйте.
  • Используйте последние версии руководящих документов по ИБ от вендоров и всегда обновляйте свои собственные (хотя бы с выходом мажорной версии продукта).
  • Максимально применяйте автоматизацию при выполнении процедур по конфигурации безопасности. В VMware vSphere и других продуктах VMware можно автоматизировать практически все.
  • Если выполнение требования к ИБ виртуальной среды потенциально может открыть еще больше дырок, вызвать ошибки конфигурации и причинить еще беды, подумайте - а может стоит отказаться от этого требования или переформулировать его?

Ну а если кратко - с головой надо подходить, а формализм отставить. Больше интересных подробностей - в статье.


Таги: VMware, vSphere, Security, Blogs, PowerCLI, PowerShell

Обновился PCoIP Log Viewer для VMware View 5.2.


Не так давно мы писали про средство PCoIP Log Viewer, предназначенное для просмотра и визуализации логов решения для виртуализации настольных ПК VMware View в части протокола доставки виртуальных десктопов и пользовательских сессий.

Недавно вышло обновление этого продукта, который теперь поддерживает свежую версию решения VMware Horizon View 5.2. Напомним, что решение это является бесплатным.

О новых возможностях PCoIP Log Viewer можно узнать из видео ниже:

Основные нововведения коснулись механизма парсинга логов. Об остальном можно прочитать по этой ссылке.

Скачать можно по этой ссылке (необходимо предварительно поставить Java 6).


Таги: VMware, View, PCoIP, Logs, Blogs, Update

Массовый запуск и выключение виртуальных машин на платформе VMware vSphere (Startup / Shutdown).


Иногда возникает потребность правильно выключить виртуальные машины VMware vSphere в определенной последовательности, чтобы не нарушить консистентность данных и приложений. Требуется это при различных сценариях обслуживания инфраструктуры, переездах оборудования, подготовке к отключениям электричества и т.п. Ну а потом, соответственно, эти ВМ нужно включить - и тоже в нужной последовательности.

Специально для таких случаев Graham French допилил скрипт на PowerShell / PowerCLI, который автоматизирует процессы Startup / Shutdown для виртуальных машин на ESXi. Грэхам подошел к задаче научно - он разделил все ВМ на 5 слоев, отражающих очередность выключения машин:

  • Phase 1 - веб-серверы, балансировщики нагрузки, принт-серверы - то есть некритичные машины и машины на краю периметра датацентра.
  • Phase 2 - серверы приложений и другие серверы, являющиеся фронтэнд-звеном в архитектуре многокомпонентных приложений.
  • Phase 3 - серверы баз данных и кластеризованные серверы.
  • Phase 4 - NAS-серверы и файловые серверы.
  • Phase 5 - сервисы обеспечения инфраструктуры: Active Directory, DNS, DHCP, виртуальные модули (Virtual Appliances).

Соответственно, правильной схемой выключения виртуальных машин является последовательность Phase 1 -> Phase 5. Скрипт принимает на вход имена виртуальных машин в CSV-файлах, а также умеет выключать/включать и физические серверы:

Для включения машин используем обратную последовательность Phase 5 -> Phase 1:

Сам скрипт Startup / Shutdown и примеры CSV-файлов можно скачать по этой ссылке.


Таги: VMware, vSphere, VMachines, Power, ESXi, Blogs

Почти бесполезно, но интересно - параметр Mem.MinFreePct в конфигурации VMware vSphere и оптимизация памяти.


Недавно Duncan Epping опубликовал интересную статью о параметре Mem.MinFreePct, который есть в настройках сервера VMware ESXi из состава vSphere. По-сути, этот параметр определяет, какое количество оперативной памяти VMkernel должен держать свободным на хосте, чтобы всегда были доступные ресурсы под нужды системы, и хост не вывалился в PSOD.

В VMware vSphere 4.1 параметр Mem.MinFreePct составлял 6% и его можно было изменять с помощью следующей команды:

vsish -e set /sched/freeMemoryState/minFreePct <Percentage>

Например, вот так можно было установить Mem.MinFreePct в значение 2%:

vsish -e set /sched/freeMemoryState/minFreePct 2

Этак команда, кстати, не требует перезагрузки, но зато после перезагрузки значение Mem.MinFreePct не сохраняется. Поэтому данную команду, если требуется, нужно занести в /etc/rc.local (подробнее в KB 1033687).

Параметр этот очень важный, поскольку от него зависят пороги использования различных механизмов оптимизации памяти хоста ESXi. При этом, если памяти на хосте много (например, десятки гигабайт), то держать постоянно 6% свободной памяти может быть для кого-то расточительством. Поэтому, начиная с VMware vSphere 5.0, параметр Mem.MinFreePct является "плавающим" и устанавливается в зависимости от объема физической памяти на хосте ESXi.

Вот какие значения принимает Mem.MinFreePct в зависимости от того, сколько RAM есть на вашем физическом хост-сервере:

Процент необходимой свободной памяти
Объем памяти хоста ESXi
6% 0-4 ГБ
4% 4-12 ГБ
2% 12-28 ГБ
1% Больше 28 ГБ

А вот какие механизмы оптимизации памяти на хосте работают, если свободной памяти становится все меньше и меньше:

Состояние свободной памяти хоста Пороговое значение Какие механизмы оптимизации памяти используются
High 6% -
Soft 64% от значения MinFreePct Balloon, Compress
Hard 32% от значения MinFreePct Balloon, compress,swap
Low 16% от значения MinFreePct Swap

Интересно, конечно, но как-то бесполезно. Зачем загонять хост в такие лимиты? Лучше как минимум процентов 10 всегда держать свободными и своевременно покупать новые серверы.


Таги: VMware, vSphere, Memory, ESXi, Blogs

Топ "виртуализованных" городов России и постсоветского пространства. Статистика VM Guru 2013.


Решил вот тут вывести статистику посещаемости нашего портала с процентными соотношениями посетителей из разных городов. За последние полтора года получается вот такая картинка (кликните для увеличения):

Для тех, кому лень тыркать, наиболее виртуализованные города России и постсоветского пространства списком:

1.  Moscow 28,32%
2. Saint Petersburg 8,31 %
3.  Kiev 6,87 %
4.  Minsk 3,17 %
5.  (not set) 2,51 %
6.  Yekaterinburg 2,42 %
7.  Novosibirsk 1,90 %
8.  Nizhny Novgorod 1,30 %
9.  Rostov-on-Don 1,24 %
10.  Kharkiv 1,15 %
11.  Almaty 1,12 %
12.  Samara 1,12 %
13.  Kazan 1,09 %
14.  Chelyabinsk 1,07 %
15.  Krasnodar 1,06 %
16.  Perm 0,97 %
17.  Krasnoyarsk 0,89 %
18.  Dnipropetrovs'k 0,85 %
19.  Voronezh 0,78 %
20.  Lviv 0,76 %
21.  Omsk 0,76 %
22.  Irkutsk 0,74 %
23.  Ufa 0,71 %
24.  Donetsk 0,70 %
25.  Vladivostok 0,68%

Оказывается, в замкадье тоже есть жизнь - и там сосредоточено более 70% наших читателей. Если, конечно, город "not set" менее чем наполовину состоит из хитропопых москвичей, блокирующих трекинг.


Таги: VMware, Blogs, Rating

Вышел летний номер технического журнала VMware Technical Journal, Summer 2013.


Компания VMware опубликовала очередной номер своего технического журнала VMware Technical Journal Summer 2013, в котором разбираются наиболее интересные технические аспекты решений для виртуализации на весьма глубоком уровне (зачастую даже с математическими выкладками). Напомним, что о предыдущем выпуске VMware Technical Journal мы писали вот тут. Как и в прошлом выпуске все статьи доступны онлайн и как PDF (5 МБ).

Темы нового номера:

Мне понравились "Redefining ESXi IO Multipathing in the Flash Era" и "Methodology for Performance Analysis of VMware vSphere under Tier-1 Applications".


Таги: VMware, Whitepapers, Documentation, vSphere, Update, Blogs

Обновился VDI calculator для расчета параметров инфраструктуры виртуальных ПК.


Мы уже много писали о калькуляторе VMware View VDI Flash Calculator, который делает Andre Leibovici, автор сайта myvirtualcloud.net. На сегодняшний день это калькулятор номер 1 для расчета параметров инфраструктуры виртуальных ПК на базе VMware View (с поддержкой vSphere 5.1 и View 5.1).

На днях вышла полностью обновленная версия этого калькулятора. Теперь он выпускается не в виде онлайновой флеш-утилиты, а в виде Java-приложения для Windows и Mac (необходима Java 6 или более поздней версии).

Что нового появилось в калькуляторе:

  • Offline Support – новая версия работает без доступа к сети + умеет самообновляться.
  • Load/Save – теперь можно сохранять и загружать конфигурации, что удобно для консультантов, рассчитывающих несколько проектов по внедрению VMware View.
  • Tool Tips – над каждым полем тултипы рассказывают о том, для чего оно нужно.
  • Validations – на поля ввода повешена валидация значений, в том числе на предмет соответствия официально поддерживаемым VMware конфигурациям.
  • Бесплатен - но с ротацией рекламы.

В будущем Андре обещает поддержку Android-устройств, расчет виртуальных ПК XenDesktop, работающих на платформе vSphere, и многое другое.

Скачать калькулятор VDI можно по этой ссылке.


Таги: VMware, View, Calc, VDI, Blogs, Update

Опубликован список профессионалов VMware vExpert 2013 - 580 штук!


Как многие из вас знают, у компании VMware есть награда vExpert, присуждаемая ИТ-специалистам за существенный вклад в развитие технологий виртуализации и привнесение своих знаний и опыта в многотысячное сообщество, существующее вокруг облачных сред и виртуальных инфраструктур. Кто-то получает звание vExpert, сделав две записи в блоге, а кто-то за десятки полезных скриптов, которые используют тысячи людей. Однако, в целом, этих людей знают и уважают в вмварном комьюнити.

Звание vExpert 2013 можно было получить по одной из трех следующих линий:

  • Евангелисты (Evangelist Path) - к ним относится ваш любимый автор и другие наши российские коллеги, получившие звания в прошедшие годы. Присуждается эта награда за активное ведение блогов, разработку утилит и скриптов, участие в публичных мероприятиях и другие вещи, которые способствуют популяризации технологий виртуализации.
  • Представители заказчиков (Customer Path) - в данной категории находятся те заказчики, которые внесли наибольший вклад в успех и продвижение продуктов и технологий VMware в информационном пространстве за счет историй успеха, интервью, а также лидерства в сообществах VMware User Groups.
  • Партнеры VMware (VMware Partner Network Path) - это сотрудники компаний-партнеров VMware, которые внесли вклад в развитие профессиональных сообществ, делились знаниями и пропагандировали технологии виртуализации среди своих коллег по цеху и конечных пользователей.

John Troyer - бессменный куратор программы, балагур и весельчак, опубликовал полный список получивших звание vExpert 2013, который насчитывает аж 580 человек, что является самым большим с момента зарождения этой программы (а существует она уже 5 лет).

Ну что ж, поздравлю всех российских коллег, да и чего уж там - сам себя - с шильдиком vExpert 2009-2013.


Таги: VMware, vExpert, Blogs

Что вы хотели знать о VCDX, да не знали.


Как многие из вас слышали, у VMware есть крутая сертификация VCDX (VMware Certified Design Expert) - высшая степень сертификации технических специалистов, предполагающая не только глубокие знание и сдачу экзаменов, но и разработку и защиту собственного проекта перед панелью экспертов (таких же VCDX). Это весьма сложная штука.

Многие пытались, да не все смогли. Так вот, есть несколько интересных ссылок про VCDX-специалистов. Кто же они? Итак:

1. Полный список всех экспертов - VCDX Directory.

Там есть и наш с вами коллега, единственный VCDX в России на сегодня - Александр Комиссаров:

2. Карта, где можно найти спецов VCDX (Александр покрасил ~1/6 часть этой карты, ему должно быть приятно):

Кстати, во всем мире только одна женщина VCDX, из Австралии:

3. Пай-чарты о VCDX (по ссылке несколько уточненные данные относительно графиков ниже).

Например, по странам:

И по типу компаний (сотрудники VMware - почти половина):

4. Ссылки о том, как стать VCDX:

5. Рассказ Юрия Семенихина о том, как не получилось стать VCDX.

6. Несколько настраивающих видео (плюс тут).

Что-нибудь еще полезное знаете? Кто из вас готовится?


Таги: VMware, VCDX, Certification, Blogs

Как накатываются патчи на VMware ESXi и являются ли они кумулятивными?


На страницах vSphere Blog обнаружилась интересная статья Вильяма Лама про патчи, накатываемые на гипервизор VMware ESXi. Приведем здесь основные выдержки, которые могут оказаться полезными при обслуживании виртуальной инфраструктуры VMware vSphere.

Итак, для начала приведем структуру разделов на диске установленной копии ESXi:

Основное отличие от традиционной ОС в VMware ESXi - это то, что все файлы, необходимые гипервизору, хранятся в разделе фиксированного объема (Primary Boot Bank - 250 МБ). Альтернативный Boot Bank такого же размера необходим на случай отката к предыдущей версии ESXi, вне зависимости от того был ли произведен Update (накатывание патчей) или Upgrade (накатывание новой версии ESXi).

Если мы произведем апгрейд ESXi 5.0 на версию 5.1, то структура банков поменяется следующим образом:

Хотя это на самом деле даже и не так - ESXi 5.0 останется в прежнем банке, а загрузчик (Boot Loader) будет указывать уже на альтернативный банк, где разместится ESXi 5.1.

Когда происходит накатывание патча на ESXi - меняется весь банк (основной или альтернативный), поэтому патчи так много весят (по сути обновляется весь основной дистрибутив):

Но в этом есть и преимущество - размер раздела для банка фиксирован и установка ESXi не разрастается со временем при установке новых апдейтов и апгрейдах. Кстати, обратите внимание, что под патчем написано его влияние на систему после установки.

Следующий момент: являются ли патчи кумулятивными, то есть содержат ли они все предыдущие обновления ESXi? Да, все патчи содержат в себе предыдущие, поэтому нет необходимости накатывать их последовательно. Скачать патчи VMware ESXi можно с Patch Portal.

Далее, мы видим, что у патча есть список Bulletin List с суффиксом BG (Bug Fix). Есть также и SG-бюллетени обновлений по безопасности (Security). Оба этих типа бюллетеней могут обновлять как основной банк (base), так и пакеты VMware Tools (драйверы и прочее). Кроме того, в бюллетенях содержатся обновления драйверов устройств для самого сервера ESXi.

SG-бюллетень содержит только обновления подсистемы безопасности, а BG-бюллетени могут содержать новый функционал, исправления ошибок и, опять-таки, обновления, касающиеся безопасности.

Наконец, каждый бюллетень состоит из VIB-пакетов, о структуре которых Вильям хорошо рассказал вот тут. Список установленных VIB-пакетов на хосте ESXi можно узнать командой:

# esxcli software vib list

Будет выведено что-то вроде:

Name              Version                     Vendor Acceptance Level Install Date
----------------- --------------------------- ------ ---------------- ------------
ata-pata-amd      0.3.10-3vmw.500.0.0.469512  VMware VMwareCertified  2012-05-04
ata-pata-atiixp   0.4.6-3vmw.500.0.0.469512   VMware VMwareCertified  2012-05-04
ata-pata-cmd64x   0.2.5-3vmw.500.0.0.469512   VMware VMwareCertified  2012-05-04
ata-pata-hpt3x2n  0.3.4-3vmw.500.0.0.469512   VMware VMwareCertified  2012-05-04

О том, как накатывать патчи на ESXi из консоли мы уже писали вот тут, также об этом рассказано в KB 2008939.


Таги: VMware, ESXi, Update, Upgrade, vSphere, Blogs

VMware View Pool Manager - управление группами пользователей Active Directory в инфраструктуре виртуальных ПК.


В большой инфраструктуре виртуальных ПК, насчитывающей сотни десктопов, администраторам часто приходится решать проблемы, связанные с управлением группами Active Directory, которые назначаются пулам виртуальных ПК. С увольнением пользователя из организации или, наоборот, с его приходом приходится вручную изменять группы AD и настройки пулов VMware Horizon View, чтобы убедиться, что число пользователей группы AD совпадает с количеством доступных виртуальных ПК в каждом пуле, и пользователи VDI распределены по пулам корректно.

Для автоматизации решения этих задач на сайте проекта VMware Labs доступна утилита View Pool Manager, с помощью которой можно выполнять следующие операции с группами AD:

  • Указать количество пользователей на security group (исходя из размера пула виртуальных ПК).
  • Поддержка плавающих непостоянных (Floating) и постоянных (Persistent) пулов.
  • Source Security Groups - группы, содержащие пользователей, которые назначаются пулам виртуальных ПК через целевые группы.
  • Destination Security Groups - целевые группы, имеющие права на лоступ к пулам виртуальных ПК. Этим группам назначаются пользователи исходных групп.

Очевидно, что VMware View Pool Manager не зависит от версии VMware View, так как работает только с группами Active Directory. Скачать утилиту можно по этой ссылке. Для ее работы требуется .NET Framework 4.0.


Таги: VMware, View, Horizon, Enterprise, Blogs, Labs

Используемые порты VMware Horizon View 5.2 - диаграмма.


Известный инструктор Simon Long опубликовал в своем блоге диаграмму, показывающую, какие локальные порты и соединения задействуются инфраструктуре виртуальных ПК VMware Horizon View 5.2.

На диаграмме представлен дизайн внутренней инфраструктуры, а вот схема по портам с учетом внешних соединений:


Таги: VMware, View, vNetwork, Blogs, Обучение

Memory Overhead виртуальных ПК на платформе VMware Horizon View 5.2.


Не так давно мы уже писали о накладных расходах на виртуализацию по памяти для виртуальных машин на платформе VMware vSphere, а сегодня поговорим о виртуальных ПК, которые предъявляют дополнительные требования к объему памяти сверх выделенного на обеспечение работы различных графических режимов в гостевой ОС.

Для начала отметим, что на платформе VMware Horizon View 5.2 появились следующие изменения по сравнению с предыдущими версиями в плане графических режимов виртуальных ПК:

  • Horizon View 5.2 не позволяет установить 24-битную цветовую палитру, теперь используется только 32-битная.
  • Horizon View 5.2 позволяет устанавливать разрешения только 1680×1050, 1920×1200 и 2560×1600. Дефолтным является 1920×1200.

Теперь о накладных расходах по памяти для виртуальных машин.

3D Software Rendering отключен

В этом случае расходы дополнительной памяти сервера на виртуальный ПК зависят от используемого разрешения и количества мониторов для виртуальной машины (значения приведены в мегабайтах):

Затраты памяти Число мониторов
Разрешение/Мониторы 1 2 3 4
1680×1050 6.73 21.54 32.30 43.07
1920×1200 8.79 28.13 42.19 56.25
2560×1600 31.25 62.5 93.75 125

Как вы знаете, в ESXi 5.0 появились возможности VMX Swap, которые позволяют создать swap-файл для сегментов данных процесса vmx, куда сбрасываются страницы памяти, но только в случае нехватки физической оперативной памяти на хосте. Он в разы уменьшает использование физической памяти на Overhead виртуальных машин в случае недостатка ресурсов.

Затраты хранилищ (в мегабайтах) на создание второго *.vswp файла для механизма VMX Swap рассчитываются следующим образом:

VMX SWAP Число мониторов
Разрешение/Мониторы 1 2 3 4
1680×1050 107 163 207 252
1920×1200 111 190 248 306
2560×1600 203 203 461 589

Как мы видим, для некоторых виртуальных ПК может потребоваться более полугигабайта дополнительного дискового пространства.

3D Software Rendering включен

Для виртуальных ПК отдельно или в пределах пула можно установить объем видеопамяти (VRAM, не путать с vRAM) доступный гостевой системе, что влияет на накладные расходы на виртуализацию.

В этом случае дополнительно требуемая физическая память будет рассчитываться как 64 МБ + 16 дополнительных МБ на каждый монитор.

Что касается SWAP-файла, то требуемый для него объем существенно выше, чем в первом случае. Он зависит от выделенной видеопамяти:

VRAM .vswp (МБ)
64 MB 1076
128MB 1468
256MB 1468
512MB 1916

То есть, в некоторых случаях дополнительные затраты на хранилище отдельной виртуальной машины могут достигать 2 ГБ. Чтобы это все учитывать при планировании инфраструктуры виртуальных ПК, можно воспользоваться калькулятором от Andre Leibovici, по материалам которого и написана эта заметка.


Таги: VMware, View, Memory, Enterprise, Blogs, vSphere, ESXi, VMachines

Официальные и неофициальные стенсилы Microsoft Visio для документирования инфраструктуры VMware vSphere, VMware View и других продуктов.


Время от времени мы пишем о графических материалах, позволяющих пользователям и партнерам VMware документировать виртуальную инфраструктуру VMware vSphere, VMware View, VMware SRM и прочее. Мы писали о наборе картинок для VMware vSphere 5 тут и тут, вот об этом наборе иконок, картинок и диаграмм, об этом, а также и об этом неофициальном наборе стенсилов Visio.

Последний как раз вчера и обновился в составе третьей части, которая теперь включает в себя картинки, графику и стенсилы для следующих компонентов:

  • Orchestrator
  • CapacityIQ
  • Chargeback
  • Appspeed
  • Site Recovery Manager
  • Studio
  • vCloud Director
  • VMware Server
  • View
  • ThinApp
  • vCloud Director

Превьюшки некоторых наборов:

Скачать все это дело можно по следующим ссылкам:

v3 (2012) (Full package) Part 1 Part 2 Part 3
v2 (2010) (Full package) Part 1 Part 2 Part 3
v1 (2009) (Full package) Part 1 Part 2

Сделал этот полезный набор Maish Saidel-Keesing.

А вот актуальные на сегодняшний день официальные иконки, картинки и диаграммы от VMware Branding Team:

В формате Power Point:

Обратите внимание, что VMware настаивает на включении в документы, которые содержат эти картинки, какого-то бредового текста, который вы увидите в начале данных презентаций.

Еще парочка интересных наборов:

Иконки там вот такие:

Есть еще вот такой набор картинок и стенсилов (некоторые уже устарели, некоторые еще в бою):

И вот такой:

Если в инфраструктуре есть продукты Veeam:

Вроде все. Не благодарите.


Таги: VMware, vSphere, ESXi, SRM, View, Graphics, Microsoft, Visio, Blogs

Рекомендации по защите инфраструктуры виртуальных десктопов VMware View. Часть 7 - Дополнительные режимы.


Представляем вам седьмую статью автора VM Guru Максима Федотенко, посвященную дополнительным режимам работы инфраструктуры виртуальных ПК. В основном все инфраструктуры виртуальных десктопов строятся для использования удаленного режима в качестве основного, поэтому локальный режим следует по умолчанию запретить для всего View Manager...
Таги: VMware, VDI, Security, vSphere, Blogs

Новая инициатива VMware - сообщество Cloud Cred Program.


Интересная, но спорная штука должна оказаться доступной сегодня, 11 марта - VMware Cloud Cred Program. Это новая инициатива по вовлечению профессионалов в сфере виртуализации на базе продуктов VMware в хм.. новый вид социальной игры.

Краткий обзор веб-сервиса Cloud Cred:

Технический обзор на вебинаре VMware, посвященном Cloud Cred:

Участвовать в активностях сервиса можно как отдельному человеку, так и командам (оба варианта также возможны совместно). В этих двух режимах профессионалы и могут собирать очки (слева - индивидуальные очки, справа - очки команды):

По-сути, это новый членомер от VMware для тех, кому требуется еще одна площадка для самовыражения. Видимо, в VMUG'ах стало тесновато и выделиться на фоне безликой толпы админов стало довольно сложно. Поэтому люди будут расти не только на фоне других, но и в глазах себя, зарабатывая очки и бейджи.

Итак, за что же даются эти очки? За выполнение заданий. Вот примеры таких заданий:

Можно вести блог, можно шарить знания с комьюнити, можно участвовать в мероприятиях или выполнять различные лабораторные работы. Например, если вы поставите VMware vCenter и создадите 1 машину на VMware ESXi, то получите 500 очков (подтверждается нотариально заверенным скриншотом):

Также за различные активности и статусы (например, вы vExpert и помогли человеку) вам дают бейджи. Их вы можете распечатать и повесить себе на грудь сайт.

Манчкинируя денно и нощно на очки, можно накопить себе на ручку, футболку и (уау) даже зонт:

Если вы особенно круты - вас засыпят стикерами "I love VMware" и выдадут почетную "Cloud Cred button".

Зарабатывая бейджи и "лидируя" в активностях, можно добиться своего упоминания в твиттере или фейсбуке VMware (вот это да!) или попасть на вечеринку CTO Party (боюсь предположить, что там происходит). А гвоздем программы и главным призом является посещение конференции VMword с компенсацией затрат на проезд и проживание + карманные деньги.

Ну что тут сказать? Затея эта, по меньшей мере, спорная по множеству причин. Во-первых, настоящие профессионалы в сфере виртуализации вряд ли могут позволить себе тратить время на столь бесполезное занятие, как получение бейджиков и поинтов. Зато пройдохи, бездельники и лоботрясы - сколько угодно. А ведь платформа вроде как официальная, а значит по ней будут судить о том, кто и какой вклад совершает в комьюнити. Вот и получится из этого сайта примерно то, что многие из вас видели на унылых вмварных эвентах (не все, конечно, вмварные эвенты - унылые).

Во-вторых, коммерциализация блоггинга, шаринга и прочих ингов, совершаемых людьми из филантропических побуждений - не очень хорошая идея. Раньше помогали просто так, а теперь - за поинты, на которые можно купить зонт. Это правильно?


Таги: VMware, Cloud, Blogs, vCloud, Cred

<<   <    1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14    >   >>
Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
VMware Enterprise Offtopic Broadcom VMachines Veeam Microsoft Cloud StarWind NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V VCF Operations Certification Memory Kubernetes NVMe AI vSAN VMConAWS vDefend VCDX Explore Tanzu Workstation Private AI Update Russian Ports HCX Live Recovery CloudHealth NSX Labs Backup Chargeback Aria VCP Intel Community Ransomware Stretched Network VMUG VCPP Data Protection ONE V2V DSM DPU Omnissa EUC Avi Skyline Host Client GenAI Horizon SASE Workspace ONE Networking Tools Performance Lifecycle AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile SRM ARM HCI Converter Photon OS VEBA App Volumes Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey RDMA vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics HCIBench SureBackup Docs Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Availability Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V Capacity KB VirtualCenter NFS ThinPrint VCAP Upgrade Orchestrator ML Director SIOC Troubleshooting Bugs ESA Android Python Hub Guardrails CLI Driver Foundation HPC Optimization SVMotion Diagram Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Работа с дисками виртуальных машин VMware.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Как поднять программный iSCSI Target на Windows 2003 Server для ESX

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как использовать возможности VMware vSphere Management Assistant (vMA).

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2026, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge